iT邦幫忙

2022 iThome 鐵人賽

DAY 3
0
Security

區塊鏈與聯邦學習系列 第 3

可容忍防禦和可用性之間的平衡

  • 分享至 

  • xImage
  •  

在針對攻擊而使用增強安全性和隱私功能的機器學習(ML)演算法時,會對效率產生影響,因此最終生成的預測與相關任務無關,並且通常也對精度(Accuracy)產生重大影響。

因此,可容忍防禦和可用性之間的平衡是許多研究人員試圖解決的關鍵點,大多數上述攻擊都是適用的,並且針對集中式(Centralised)機器學習(ML)基礎設施,其中模型所有者可以存取並獲取所有訓練資料(Training Data)。

反向傳播優化(Back-Gradient Optimization)污染機器學習演算法

許多線上的第三方服務利用機器學習從收集的大量輸入資料中提取有價值的訊息,但這些服務可能被濫用,為網路犯罪提供了巨大的機會。
機器學習作為服務主要的組成部分,可能是安全鏈(Safety Chain)中最薄弱的一環,漏洞可能被用來攻擊整個系統。
此類攻擊針對病毒引擎、垃圾郵件篩選器,幫助了對抗性機器學習(Adversarial Machine Learning)的發展,注意機器學習的弱點以開發更安全的系統。

**資料汙染(Data Poisoning)**攻擊

是一種資料驅動(Data Driven)的資安威脅,攻擊者控制並操縱訓練資料以破壞學習過程,使得機器學習(ML)模型不準確,因而導致輸出錯誤的不良決策。

一個潛在的問題是與資料集(Data Set)相關的具有可靠標籤(Lable)的資料問題。
這是惡意軟體檢測中的一個常見的問題,惡意軟體樣本經由已知漏洞的感染機器的手段,例如:蜜罐(Honeypot)。
常見針對資料汙染(Data Poisoning)攻擊防禦的機器學習演算法有:支持向量機(SVM)、Lasso迴歸、邏輯迴歸和嶺迴歸。
而防禦資料汙染(Data Poisoning)攻擊的困難在於計算受汙染樣本,而生成對抗網路(Generative adversarial networks, GAN)的黑盒(Black-Box)優化計算、以及使用卡羅需-庫恩-塔克(Karush-Kuhn-Tucker,KKT)條件推導出梯度的隱函數(Mplicit Equation),都有計算成本太高的問題。


上一篇
聯邦學習(Federated Learning)
下一篇
集中式機器學習(Centralized Machine Learning)
系列文
區塊鏈與聯邦學習30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言